((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
* Les nouvelles prévisions d'opportunités de revenus marquent un grand pas en avant par rapport aux 500 milliards de dollars prévus jusqu'en 2026
* Nvidia dévoile un processeur et un système d'IA basés sur la technologie Grok pour le calcul d'inférence
* Nvidia fait face à une concurrence accrue sur le marché des puces d'IA
* Les actions de Nvidia clôturent en hausse de 1,6 %, loin du sommet de la séance
(Mises à jour avec les détails de la keynote) par Stephen Nellis et Max A. Cherney
Nvidia NVDA.O a déclaré que l'opportunité de revenus pour ses puces d'intelligence artificielle pourrait atteindre au moins 1 000 milliards de dollars d'ici 2027, alors que l'entreprise a exposé une stratégie visant à rivaliser plus agressivement sur le marché en pleine croissance de l'exécution de systèmes d'intelligence artificielle en temps réel.
Lors de sa conférence annuelle des développeurs GTC à San Jose, en Californie, Nvidia a dévoilé un nouveau processeur central et un système d'intelligence artificielle basé sur la technologie de la startup Groq , dans le cadre des efforts déployés par le directeur général Jensen Huang pour renforcer la position de l'entreprise dans ce que l'on appelle l'informatique d'inférence.
L'inférence représente une concurrence accrue pour Nvidia, notamment de la part des processeurs personnalisés construits par des clients tels que Meta, même si l'entreprise domine le marché des puces utilisées pour entraîner l'IA grâce à ses processeurs graphiques.
"L'inflexion de l'inférence est arrivée", a déclaré M. Huang.
Il s'exprimait dans une arène de hockey pouvant accueillir plus de 18 000 personnes lors de la conférence de quatre jours qui est devenue l'une des plus grandes vitrines de la technologie de l'IA. "Je tiens à vous rappeler qu'il s'agit d'une conférence sur la technologie", a-t-il déclaré à l'auditoire.
Les actions de Nvidia - la société cotée en bourse la plus importante au monde avec une valeur de marché de plus de 4,3 billions de dollars - ont brièvement bondi à la suite de la prévision de 1 billion de dollars, mais ont réduit ces gains pour clôturer en hausse de 1,6 %.
M. Huang n'a pas donné plus de détails sur cette prévision. Mais cela représente un grand pas en avant par rapport à l'opportunité de revenus d'environ 500 milliards de dollars pour 2026 que Nvidia a réitérée lors de sa dernière conférence de presse sur les résultats.
"Huang prévoit une opportunité de 1 000 milliards de dollars jusqu'en 2027, cequi souligne la demande durable pour l'infrastructure d'IA de Nvidia malgré les inquiétudes des investisseurs", a déclaré Jacob Bourne, analyste chez Emarketer.
"Cela indique que Nvidia maintient son leadership sur le marché des puces d'IA alors que l'industrie globale de l'IA dépasse les premières expérimentations pour se déployer à grande échelle."
Huang a déclaré que l'inférence, où les systèmes d'IA répondent à des questions ou exécutent des tâches, sera divisée en deux étapes. Les puces Vera Rubin de Nvidia s'occuperont d'une première étape appelée "prefill", au cours de laquelle la demande de l'utilisateur est transformée de mots humains en langage de "tokens" que les ordinateurs d'IA utilisent.
Les nouvelles puces de Groq se chargeront d'une deuxième étape, le "décodage", au cours de laquelle l'ordinateur d'IA fournira la réponse recherchée par l'utilisateur.
DES PUCES IA TRÈS DEMANDÉES
Groq, une startup de puces dont Nvidia a acquis la technologie sous licence pour 17 milliards de dollars en décembre. Groq se spécialise dans le travail informatique "d'inférence" rapide et bon marché, dans lequel un modèle d'IA prend ce qu'il a déjà appris et l'utilise pour répondre à une question ou faire une prédiction en temps réel.
Après avoir dépensé des centaines de milliards de dollars ces dernières années en puces pour entraîner leurs modèles d'IA, des entreprises comme OpenAI, Anthropic et Meta Platforms
META.O , propriété de Facebook, s'orientent vers le service aux centaines de millions d'utilisateurs qui exploitent ces systèmes d'IA.
La présentation a égalementabordé la question d'une puce d'IA de nouvelle génération appelée Feynman , du nom du physicien américain Richard Feynman, aujourd'hui décédé.
M. Huang a également fait valoir qu'une partie de l'avantage concurrentiel de Nvidia résidait dans son logiciel de programmation de puces CUDA, que certains analystes considèrent comme son meilleur bouclier.
"La base installée est ce qui attire les développeurs qui créent ensuite (les) nouveaux algorithmes qui permettent de réaliser des percées technologiques", a déclaré M. Huang. "Nous sommes présents dans tous les nuages. Nous sommes dans toutes les entreprises informatiques. Nous servons à peu près tous les secteurs d'activité."
Les analystes s'attendent également à ce que Nvidia explique pourquoi elle a investi 2 milliards de dollars chacun dans Lumentum et Coherent , deux entreprises qui fabriquent des lasers permettant d'envoyer des informations entre les puces sous la forme de faisceaux de lumière.
Malgré cette concurrence accrue , dont une partie provient des propres clients de Nvidia qui conçoivent leurs propres puces , Nvidia reste au cœur de l'écosystème mondial de l'IA.
Des pays comme l'Arabie saoudite construisent des systèmes d'IA personnalisés pour leurs propres populations en utilisant ses puces, et c'est l'une des seules grandes entreprises américaines qui continue à publier des logiciels d'IA open-source , un domaine de concurrence croissante entre les États-Unis et la Chine .

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer